home *** CD-ROM | disk | FTP | other *** search
/ Sprite 1984 - 1993 / Sprite 1984 - 1993.iso / src / benchmarks / itc / results.dec / text0000.txt < prev   
Encoding:
Text File  |  1991-03-13  |  5.8 KB  |  179 lines

  1.  
  2. I ran these tests about a week ago but couldn't get back to it until now.
  3. I've reduced the data and put this mail together quickly, so please forgive
  4. any typos.
  5.  
  6.     -chet
  7.  
  8. **************************************************************
  9.  
  10. I unpacked the tar file and tested the benchmark
  11. for sanity on abyss, a 4 processor 6000 system (6340 I believe).
  12. The system was pretty lightly loaded (20 users, load average 1.69).
  13.  
  14. Here are the reduced results:
  15.  
  16. Phase 1: 3.000000 seconds (min 3, max 3)
  17. Phase 2: 8.000000 seconds (min 8, max 8)
  18. Phase 3: 8.000000 seconds (min 8, max 8)
  19. Phase 4: 6.000000 seconds (min 6, max 6)
  20. Phase 5: 97.000000 seconds (min 97, max 97)
  21. Total: 122.000000 seconds
  22.  
  23. So far, so good.
  24. Next, I connected a pair of DS5500s on a private net.
  25. Both systems are running ULTRIX V4.1.
  26.  
  27. The server system has 32 MB, 25% bufcache, and RZ57 disks (the
  28. benchmark is loaded in the g partition of an RZ57).
  29.  
  30. The client system has either 16 MB, 10% bufcache or
  31. 32 MB, 25% bufcache. The root filesystem (where /tmp is located)
  32. is the a partition of an RF71 disk (less performance than RZ57).
  33.  
  34. I controlled for benchmark execution on server with benchmark
  35. directory local on server and /tmp local on server:
  36.  
  37.     + with and without presto
  38.  
  39. I controlled for benchmark execution on client with benchmark
  40. directory remote on server and /tmp local on client:
  41.  
  42.     + with and without presto on server.
  43.     + with and without presto on client.
  44.     + 16 MB, 10% bufcache and 32 MB, 25% bufcache clients.
  45.  
  46. With each configuration I ran three test iterations.
  47. Here are the reduced results:
  48.  
  49. ===== Local Execution =====
  50.  
  51. test1:    32 MB, 25% bufcache server
  52.     execution on server, benchmark directory local, /tmp local
  53.     no presto
  54.  
  55. Phase 1: 2.666667 seconds (min 2, max 3)
  56. Phase 2: 3.333333 seconds (min 3, max 4)
  57. Phase 3: 6.333333 seconds (min 6, max 7)
  58. Phase 4: 5.666667 seconds (min 5, max 7)
  59. Phase 5: 60.000000 seconds (min 59, max 62)
  60. Total: 78.000000 seconds
  61.  
  62. test2:    32 MB, 25% bufcache server
  63.     execution on server, benchmark directory local, /tmp local
  64.     presto
  65.      
  66. Phase 1: 0.000000 seconds (min 0, max 0)
  67. Phase 2: 1.333333 seconds (min 1, max 2)
  68. Phase 3: 6.666667 seconds (min 6, max 8)
  69. Phase 4: 4.666667 seconds (min 4, max 5)
  70. Phase 5: 53.333332 seconds (min 53, max 54)
  71. Total: 66.000000 seconds
  72.  
  73. ** From test2 we can see there is 12 seconds of disk head latency
  74. ** associated with synchronous writes in the benchmark across all
  75. ** filesystems.
  76.  
  77. ===== Remote Execution, Small Client =====
  78.  
  79. test3:    32 MB, 25% bufcache server
  80.     16 MB, 10% bufcache client
  81.     execution on client, benchmark directory NFS, /tmp local
  82.     no presto on server, no presto on client
  83.  
  84. Phase 1: 3.000000 seconds (min 3, max 3)
  85. Phase 2: 11.333333 seconds (min 11, max 12)
  86. Phase 3: 13.000000 seconds (min 13, max 13)
  87. Phase 4: 8.000000 seconds (min 8, max 8)
  88. Phase 5: 82.666664 seconds (min 82, max 83)
  89. Total: 118.000000 seconds
  90.  
  91. test4:    32 MB, 25% bufcache server
  92.     16 MB, 10% bufcache client
  93.     execution on client, benchmark directory NFS, /tmp local
  94.     presto on server, no presto on client
  95.  
  96. Phase 1: 1.000000 seconds (min 1, max 1)
  97. Phase 2: 5.666667 seconds (min 5, max 6)
  98. Phase 3: 13.000000 seconds (min 13, max 13)
  99. Phase 4: 8.666667 seconds (min 8, max 9)
  100. Phase 5: 66.333336 seconds (min 66, max 67)
  101. Total: 94.666664 seconds
  102.  
  103. ** Execution time reduced by 23 seconds (about 20%) with presto
  104. ** on server.
  105.  
  106. test5:    32 MB, 25% bufcache server
  107.     16 MB, 10% bufcache client
  108.     execution on client, benchmark directory NFS, /tmp local
  109.     presto on server, presto on client
  110.  
  111. Phase 1: 1.000000 seconds (min 1, max 1)
  112. Phase 2: 5.666667 seconds (min 5, max 6)
  113. Phase 3: 12.666667 seconds (min 12, max 13)
  114. Phase 4: 8.000000 seconds (min 8, max 8)
  115. Phase 5: 58.000000 seconds (min 58, max 58)
  116. Total: 85.333336 seconds
  117.  
  118. ** From test5 we see there is about 9 seconds of disk head latency
  119. ** associated with synchronous writes in the benchmark across /tmp.
  120. ** Execution time reduced by about 28% with presto on both sides.
  121.  
  122. ===== Remote Execution, Large Client =====
  123.  
  124. test6:    32 MB, 25% bufcache server
  125.     32 MB, 25% bufcache client
  126.     execution on client, benchmark directory NFS, /tmp local
  127.     no presto on server, no presto on client
  128.  
  129. Phase 1: 2.333333 seconds (min 2, max 3)
  130. Phase 2: 11.333333 seconds (min 11, max 12)
  131. Phase 3: 10.666667 seconds (min 10, max 11)
  132. Phase 4: 7.333333 seconds (min 7, max 8)
  133. Phase 5: 79.000000 seconds (min 79, max 79)
  134. Total: 110.666664 seconds
  135.  
  136. ** 8 seconds reduced due to larger client cache compared to test3.
  137. ** Indeed, there is a reduction of 72% in read requests over the wire
  138. ** with the larger client cache.
  139.  
  140. test7:    32 MB, 25% bufcache server
  141.     32 MB, 25% bufcache client
  142.     execution on client, benchmark directory NFS, /tmp local
  143.     presto on server, no presto on client
  144.  
  145. Phase 1: 1.000000 seconds (min 1, max 1)
  146. Phase 2: 4.000000 seconds (min 4, max 4)
  147. Phase 3: 11.000000 seconds (min 11, max 11)
  148. Phase 4: 7.333333 seconds (min 7, max 8)
  149. Phase 5: 62.333332 seconds (min 62, max 63)
  150. Total: 85.666664 seconds
  151.  
  152. ** Execution time reduced by 25 seconds (about 23%) with presto
  153. ** on server. This should be constant across runs if the volume of NFS
  154. ** write data is the same.
  155.  
  156. test8:    32 MB, 25% bufcache server
  157.     32 MB, 25% bufcache client
  158.     execution on client, benchmark directory NFS, /tmp local
  159.     presto on server, presto on client
  160.  
  161. Phase 1: 0.333333 seconds (min 0, max 1)
  162. Phase 2: 4.666667 seconds (min 4, max 5)
  163. Phase 3: 11.000000 seconds (min 11, max 11)
  164. Phase 4: 7.000000 seconds (min 7, max 7)
  165. Phase 5: 54.666668 seconds (min 54, max 55)
  166. Total: 77.666664 seconds
  167.  
  168. ** From test7 we see there is about 8 seconds of disk head latency
  169. ** associated with synchronous writes in the benchmark across /tmp.
  170. ** This should be constant across runs if there is the same amount
  171. ** of local directory operations on the client.
  172. ** Execution time reduced by about 30% with presto on both sides.
  173. ** 
  174. **
  175. ** With presto on both sides, remote execution was equivalent
  176. ** to local execution without presto (test1).
  177.  
  178.  
  179.